EvoClass
IA012
Profundidade em Modelos de Linguagem Grandes
Estudos de Caso e Estratégias de Implantação de Modelos de Linguagem Grandes
Objetivos de Aprendizagem
- Analise as diferenças estruturais entre arquiteturas Encoder-only (BERT), Decoder-only (GPT) e Encoder-Decoder (T5).
- Explique o processo de treinamento em três etapas: pré-treinamento (modelo base), ajuste por instruções (SFT) e alinhamento (RLHF/PPO).
- Compare o desempenho, leis de escalabilidade e inovações arquiteturais dos principais modelos de linguagem grande, incluindo GPT, Llama, Qwen e DeepSeek.